Inteligência Artificial, pausa para reflexão — Por um Ensino Superior humanizado – Manifesto contra o uso da “inteligência” artificial generativa

Nota prévia:

Uma última pausa na série, antes de publicarmos os dois últimos textos programados da série Inteligência Artificial. Trata-se de um manifesto que corrobora grande parte do que os textos já publicados afirmam, em particular no que ao ensino diz respeito. Ainda que seja fundamental encontrar mecanismos de resposta à situação que, na prática, já existe de implantação da IA no ensino.

Uma notícia da Reuters do passado dia 3 de Janeiro (que anexamos no final deste manifesto) alerta-nos para um dos usos deploráveis da dita inteligência artificial – neste caso, a pornografia – o que reforça a necessidade, como dizem os autores do manifesto, de caminhos e soluções alternativas, que estarão ainda por construir, mas que deverão passar pelo controlo público, transparente e democrático da tecnologia, colocando-a ao serviço do desenvolvimento e do bem-estar humano.

FT


Seleção de Júlio Marques Mota

10 min de leitura

Por um Ensino Superior humanizado – Manifesto contra o uso da “inteligência” artificial generativa

Na esteira de iniciativas como o Safe AI in Education Manifesto (Outubro, 2024) a Open Letter: Stop the Uncritical Adoption of AI Technologies in Academia (Junho, 2025), ou até mesmo do Relatório da Comissão Internacional sobre os Futuros da Educação – Reimaginar Nossos futuros Juntos: Um novo contrato social para a educação –, publicado pela UNESCO em 2021, no rescaldo da pandemia, pretende-se com este texto afirmar a necessidade de, a um tempo, promover a humanização do ensino superior e banir o uso da “inteligência” artificial generativa (IA) nos processos de ensino-aprendizagem.

O ensino é uma das mais nobres missões de universidades e politécnicos e, embora existam experiências pontuais de qualificação, inovação e valorização pedagógica, a lógica prevalecente, refém da burocracia managerialista e de uma voraz monocultura do produtivismo acelerado, tende a desvalorizar a centralidade das relações de ensinoaprendizagem e dos seus protagonistas na vida quotidiana das instituições.

Neste contexto, aquilo que se tem vindo a designar como dilúvio digital, constitui um dos maiores problemas enfrentados pelas instituições de ensino superior, pelos professores e pelos estudantes.

Estes últimos são as grandes vítimas do mundo digital, indefesos perante um avanço tido como inevitável da IA sobre tudo aquilo que constitui a vida académica. Impelidos a utilizar a IA, veem os seus métodos de trabalho e estudo ser permanentemente soterrados por grandes modelos de linguagem e chatbots que operam enquanto fábricas de produção de lugares-comuns, banalidades, arquiteturas tecnológicas promotoras de fraude e plágio em série. Entretanto, a saúde mental dos estudantes bate no fundo, os níveis de ansiedade sobem aos píncaros e, convertidos em cretinos digitais, demonstram muito pouca curiosidade intelectual ou entusiasmo pela enorme e desafiante aventura do conhecimento. Naturalmente, esta exige esforço, trabalho e dedicação; requer um tempo longo, uma lenta maturação e aprofundamento das ideias, das possibilidades e das relações que estas estabelecem entre si e, porque não dizê-lo, uma boa dose de angústia, frustração e dor. Tudo aquilo que a IA lhes rouba sob um espesso manto de ignorância, facilitismo, desonestidade intelectual, copianço e rapidez. Sem alma nem rasgo, aniquilando o desejo e a vontade de saber, analisar, compreender e interpretar.

Quanto aos professores do ensino superior, a situação não é melhor. Enredados numa densa trama de burocracias inúteis que os satura e esgota, enfrentam agora desafios novos decorrentes de um dilúvio digital, encabeçado pela IA, que é de tal modo avassalador que não pode deixar de gerar uma sensação difusa de impotência e desalento. Confrontados com trabalhos artificiais sistematicamente nivelados pela mediania de um chatbot qual mangas-de-alpaca digitalizado, com apresentações orais que não vão para além do papaguear de frases desconexas e expressões que denunciam ausência de autoria ou um módico de originalidade, sentem na pele o desconforto motivado pela ausência de níveis mínimos de integridade e honestidade intelectual, para além de já não possuírem ferramentas para verdadeiramente comandar os processos pedagógicos, monitorizar os ritmos e os tempos dos processos de ensino-aprendizagem e proceder a avaliações justas. Por isso, assiste-se ao regresso a instrumentos de avaliação, como os testes de escolha múltipla, que vinham sendo abandonados no contexto da progressiva valorização de formas de ensino centradas nos estudantes. Naturalmente, a incapacidade para penalizar ou até mesmo identificar com rigor práticas académicas fraudulentas poderá ou não levar a modos mais ou menos engenhosos de cinismo escapista ou demissão do exercício intelectual da crítica, mas irá sempre redundar na interiorização de uma grande dose de sofrimento psíquico e culpa por parte dos professores.

As instituições de ensino superior – universidades e politécnicos – que, no capitalismo académico hegemónico, tendem a mimetizar o espírito, os discursos e as práticas das empresas elevadas à condição de eixo referencial da vida em sociedade, escolheram o caminho mais fácil: a fuga para a frente. Na generalidade dos casos, com receio de perder o comboio do progresso e furtando-se a colocar a questão sacramental de política académica – cui bono? –, apressaram-se a regurgitar vagas declarações de intenções, orientações, regulamentos, despachos, circulares, a promover conferências, workshops e a criar grupos de trabalho de eficácia tendencialmente nula. Depois de terem adotado uma política suicidária de portas abertas e deslumbramento acrítico, como se o objetivo último do lucro máximo no menor tempo possível dos conglomerados tecnológicos e dos seus algoritmos ideologicamente enviesados e não sujeitos a escrutínio público democrático fosse compatível com processos de ensino-aprendizagem dignos desse nome, procuram agora modelar, regular e equilibrar forças de tal maneira poderosas que, hoje, já todos percebemos, são impossíveis de domar. Não seria de esperar nada diferente pois instituições assim, administradas por professores-gestores que até podem adotar um discurso de valorização do pensamento crítico quando, na verdade, aquilo em que têm apostado as suas fichas é na redução do horizonte de possibilidades dos estudantes à figura do potencial empregado-executante e dos professores ao de gestores de si, empobrecem a nossa capacidade de pensar e transformar o mundo. Quando a organização do seu funcionamento é reduzida ao absurdo dos rankings, fatores de impacto e indexações, até se pode publicar cada vez mais, mas questiona-se cada vez menos. E nem precisamos de mencionar as contradições resultantes da bolha especulativa gerada em torno da IA, da sua pegada ambiental absolutamente insustentável ou dos custos humanos de quem treina os algoritmos.

Não há soluções de compromisso, moderação e equilíbrio que não sejam atropeladas pelo rolo compressor digital. Se existem ainda preocupações genuínas com o futuro dos estudantes, mas também de professores e instituições, o caminho, estreito e não isento de riscos, tem de passar necessariamente pela suspensão generalizada do uso deste tipo de ferramentas nos processos de ensino-aprendizagem. Não se trata de ingenuidade pueril, adoção de uma postura neo-ludita, manifestação de um temor pré-apocalíptico ou de qualquer bravata tecnofóbica. Menos ainda de procurar recuar a um tempo outro, mitificado e idealista, não conspurcado por perturbações digitais e tecnológicas. Não! Trata-se, apenas e só, de não ceder ao facilitismo acrítico nem ao discurso política e intelectualmente preguiçoso da inexistência de alternativas, procurando reivindicar a necessidade de humanizar o ensino, de o tornar mais lúcido e céptico relativamente ao tecnofeudalismo que hoje ganha forma. Se queremos preservar autonomia e integridade, independência e liberdade nos planos intelectual, científico e cultural, e assim contrariar a trajetória de empobrecimento cognitivo e emocional em curso, temos de ser capazes de resistir coletivamente ao avanço imparável desta nova economia política geradora de sofisticados regimes de servidão digital e restaurar o primado da relação humana, dos seus ritmos e espaços próprios, nos processos de ensino-aprendizagem. Neste sentido, recusar a utilização da IA no contexto do ensino é simultaneamente a escolha mais difícil e também a mais urgente.

É certo que os caminhos e as soluções alternativas estarão ainda por construir e terão de passar pelo controlo público, transparente e democrático da tecnologia, colocando-a ao serviço do desenvolvimento e do bem-estar humano, mas o ponto de partida urgente não pode ser outro que não o da proibição do uso da IA. E nem sequer se pode dizer que não existam precedentes relevantes. Atente-se àquilo que sucedeu relativamente ao uso de smartphones nas escolas. Primeiro, foram vendidos como ferramentas fundamentais para preparar as gerações do futuro, porque os nativos digitais já não conseguiam aprender sem elas. Depois, com o avolumar de evidências sobre as consequências altamente prejudiciais do seu uso, foram sendo proibidos, tal como, de resto, também as redes sociais têm levado à adoção deste tipo de soluções por parte de muitos Estados. O automatismo retórico segundo o qual todas as formas de proibição são sempre contraproducentes não colhe. Afinal de contas, por que é que era proibido o plágio quando eram artesanais as suas condições de produção e, agora que se industrializaram, passou a ser aceite, tolerado e até incentivado?

Se este é o tempo dos monstros, em que o mundo velho está a morrer e o novo ainda não nasceu, é tempo de coletivamente pararmos para pensar se aquilo que queremos ajudar a construir é um mundo povoado de zombies digitais alienados ou uma nova paisagem social plena de possibilidades para a realização e o florescimento de todos e cada um de nós.

 

Subscrevem (ordem alfabética): Ana Costa, Professora Associada, Iscte-Instituto Universitário de Lisboa; André Carmo, Professor Auxiliar, Universidade de Évora; António Fernandes de Matos, Professor Auxiliar, Universidade da Beira Interior; Catarina Gaspar, Professora Auxiliar, Universidade de Lisboa; Carlos Gonçalves, Professor Auxiliar, Universidade de Évora; Elísio Estanque, Professor Associado jubilado, Universidade de Coimbra; Ema Pires, Professora Auxiliar, Universidade de Évora; Guida Veiga, Professora Associada, Universidade de Évora; Helena Madureira, Professora Associada, Universidade do Porto; João Cruz, Professor Auxiliar, Universidade de Lisboa; João Teixeira Lopes, Professor Catedrático, Universidade do Porto; Joaquim Marques, Professor Auxiliar, Universidade de Évora; José Muñoz-Rojas, Professor Auxiliar, Universidade de Évora; Ludovina Padre, Professora Auxiliar, Universidade de Évora; Luíz Souta, Professor Coordenador aposentado, Instituto Politécnico de Setúbal; Manuel Carlos Silva, Professor Catedrático aposentado, Universidade do Minho; Manuela Mendes, Professora Associada, Universidade de Lisboa; Maria da Paz Campos Lima, Professora Auxiliar aposentada, Iscte-Instituto Universitário de Lisboa; Miguel Viegas, Professor Auxiliar, Universidade de Aveiro; Paula Maria Simões, Professora Auxiliar, Universidade de Évora; Raquel Varela, Professora Auxiliar com Agregação, Universidade Nova de Lisboa; Raúl Iturra, Professor Catedrático Emérito, Iscte-Instituto Universitário de Lisboa; Raul Lopes, Professor Associado com Agregação, Iscte-Instituto Universitário de Lisboa; Rute Sousa Matos, Professora Auxiliar, Universidade de Évora; Silvério da Rocha Cunha, Professor Catedrático Jubilado, Escola de Ciências Sociais, Universidade de Évora; Sónia Lucena, Professora Auxiliar, Universidade de Évora; Susana Mendes Silva, Professora Auxiliar, Universidade de Évora; Viriato Soromenho-Marques, Professor Catedrático aposentado, Universidade de Lisboa

 

——-

Anexo

Seleção e tradução de Júlio Marques Mota

IA Grok de Elon Musk inunda o X com fotos sexualizadas de mulheres e menores

Por A. J. Vicens e Raphael Satter

Publicado por em 3 de Janeiro de 2026 (original aqui)

 

Julie Yukari, uma música sedeada no Rio de Janeiro, segura um telemóvel mostrando uma foto dela durante uma entrevista, depois que ela descobriu que Grok, o chatbot embutido na plataforma de mídia social X de Elon Musk, gerou imagens seminuas dela quando os usuários solicitaram edições numa foto que ela postou, em Rio Claro, Estado do Rio de Janeiro, Brasil, 3 de janeiro de 2026. REUTERS / Tita Barros

 

WASHINGTON/DETROIT, 2 de Jan (Reuters) – Julie Yukari, uma música radicada no Rio de Janeiro, colocou uma foto tirada pelo seu noivo na rede social X pouco antes da meia-noite, na véspera de Ano Novo, mostrando-a num vestido vermelho aconchegada na cama com o seu gato preto, Nori.

No dia seguinte, no meio de centenas de “eu gosto” sobre a foto, ela viu notificações de que utilizadores estavam a pedir ao Grok — o robot de conversação de inteligência artificial integrado do X — para a despirem digitalmente e colocá-la de biquíni.

A mulher de 31 anos não deu muita importância, disse ela à Reuters na sexta‑feira, imaginando que não havia chance de o robô de conversação dar resposta a tais pedidos.

Ela estava enganada. Logo a seguir, imagens dela geradas pelo Grok, quase nua, estavam a circular pela plataforma de propriedade de Elon Musk. “Fui ingénua”, disse Yukari.

A experiência de Yukari está-se a repetir pelo X, constatou uma análise da Reuters. A Reuters também identificou vários casos em que o Grok criou imagens sexualizadas de crianças. O X não respondeu a uma mensagem pedindo comentários sobre as descobertas da Reuters. Numa declaração anterior à agência de notícias sobre relatos de que imagens sexualizadas de crianças estavam a circular na plataforma, a xAI, proprietária do X, disse: “Os meios de comunicação tradicionais mentem .”

A vaga de imagens quase nuas de pessoas reais fez soar alarmes a nível internacional.

Ministros em França denunciaram o X junto de procuradores e reguladores devido às imagens perturbadoras, afirmando numa declaração feita na sexta‑feira que o conteúdo “sexual e sexista” era “manifestamente ilegal”. O ministério das Tecnologias da Informação da Índia disse, numa carta à unidade local do X, que a plataforma falhou em impedir o uso indevido do Grok ao gerar e divulgar conteúdo obsceno e sexualmente explícito. A Comissão Federal de Comunicações dos EUA não respondeu aos pedidos de comentário. A Comissão Federal de Comércio recusou comentar.

 

“Retire-lhe o uniforme escolar”

A onda massiva de ‘desnudamento digital’ do Grok parece ter começado nos últimos dias, de acordo com pedidos de remoção de roupas concluídos com sucesso publicados pelo próprio Grok e com reclamações de utilizadores analisadas pela Reuters. Musk pareceu fazer piada da controvérsia antes de ocorrerem as reclamações, na sexta‑feira, ao colocar emojis de riso em resposta a edições de IA que colocavam pessoas famosas — incluindo ele mesmo — de biquínis.

Quando um utilizador do X disse que o seu feed nas redes sociais parecia um bar cheio de mulheres de biquíni, Musk respondeu, em parte, com outro emoji da chorar de riso.

A Reuters não conseguiu determinar a dimensão total da situação.

Uma análise de pedidos públicos enviados ao Grok durante um único período de 10 minutos, ao meio‑dia (hora da Costa Leste dos EUA) na sexta‑feira, contabilizou 102 tentativas de utilizadores do X de usar o Grok para editar digitalmente fotografias de pessoas de modo a que parecessem estar a usar biquínis. A maioria dos alvos eram mulheres jovens. Em alguns casos, homens, celebridades, políticos e — num caso — um macaco foram alvo desses pedidos.

Quando utilizadores pediam ao Grok fotografias de mulheres alteradas por IA, normalmente solicitavam que as retratadas fossem mostradas com as roupas mais reveladoras possíveis.

“Coloque-a com um mini-biquíni muito transparente”, disse um utilizador ao Grok, sinalizando uma fotografia de uma jovem a tirar uma foto de si mesma em frente a um espelho. Quando o Grok fez isso, substituindo as roupas da mulher por um conjunto de duas peças em tom de pele, o utilizador pediu que o Grok tornasse o biquíni “mais claro e mais transparente” e “muito menor”. O Grok aparentemente não respondeu ao segundo pedido.

O Grok atendeu plenamente a esse tipo de solicitação em pelo menos 21 casos, constatou a Reuters, gerando imagens de mulheres em biquínis do tipo fio dental ou translúcidos e, em pelo menos um caso, cobrindo uma mulher com óleo. Em outros sete casos, o Grok atendeu parcialmente, às vezes despindo as mulheres até a roupa íntima, mas sem atender aos pedidos para ir além.

A Reuters não conseguiu estabelecer imediatamente as identidades e idades da maioria das mulheres que foram alvo.

Num caso, um utilizador forneceu uma foto de uma mulher usando uma saia xadrez no estilo uniforme escolar e uma blusa cinza, que parecia estar a tirar uma selfie em frente a um espelho, e disse: “Remova o uniforme escolar dela”. Quando o Grok trocou as roupas por uma camiseta e um short, o usuário foi mais explícito: “Mude a roupa dela para um microbiquíni bem revelador”. A Reuters não conseguiu determinar se o Grok satisfez esse pedido. Como a maioria das solicitações contabilizadas pela Reuters, ele desapareceu do X em até 90 minutos após ser publicado.

 

“Totalmente previsível”

Programas impulsionados por IA que despem mulheres digitalmente — às vezes chamados de “nudificadores” — existem há anos, mas até agora estavam em grande parte confinados aos cantos mais obscuros da internet, como sites de nicho ou canais no Telegram, e normalmente exigiam um certo nível de esforço ou pagamento.

A inovação do X — permitir que usuários tirem a roupa de mulheres ao enviar uma foto e digitar as palavras “hey @grok put her in a bikini” — reduziu a barreira de entrada.

Três especialistas que acompanharam o desenvolvimento das políticas do X em torno de conteúdo explícito gerado por IA disseram à Reuters que a empresa havia ignorado alertas da sociedade civil e de grupos de proteção infantil — incluindo uma carta enviada no ano passado, que alertava que a xAI estava a apenas um pequeno passo de libertar “uma enxurrada de deepfakes obviamente não consentidas”.

“Em agosto, avisámos que o gerador de imagens da xAI era, no fundo, uma ferramenta de criação de nudes pronta para ser explorada”, afirmou Tyler Johnston, diretor executivo do The Midas Project, grupo de fiscalização de IA que assinou a carta. “Foi exatamente o que aconteceu.”

Segundo Dani Pinter, diretora jurídica do Centro Nacional sobre Exploração Sexual, o X não removeu imagens de abuso dos dados usados para treinar a sua IA e deveria ter banido utilizadores que tentavam gerar conteúdos ilegais.

Esta foi uma atrocidade inteiramente previsível e evitável”, disse Pinter.

Yukari, a música, tentou contestar por conta própria. Mas quando ela recorreu ao X para protestar contra a violação, uma enxurrada de imitadores começou a pedir ao Grok que gerasse fotos ainda mais explícitas.

Agora o Ano Novo “resultou começar comigo a sentir a necessidade de me esconder do olhar de toda a gente, e sentindo vergonha por um corpo que nem é meu, visto que foi gerado por inteligência artificial”.

_____________

Reportagem de  Raphael Satter em Washington e AJ Vicens em Detroit. Reportagem adicional de Arnav Mishra, Akash Sriram e Bipasha Dey em Bengaluru; Edição de Donna Bryson, Timothy Heritage, Chizu Nomiyama, Daniel Wallis e Thomas Derpinghaus.

 

Leave a Reply